home *** CD-ROM | disk | FTP | other *** search
/ HPAVC / HPAVC CD-ROM.iso / NEUCLS3.ZIP / NURN.ZP / DATAMN.HLP < prev    next >
Text File  |  1993-01-04  |  6KB  |  124 lines

  1. Outline
  2.  
  3. 1. Files Needed or Produced by Software
  4. 2. Training and Testing Data 
  5.  a. IANS Format
  6.  b. Data Files Included With This Package
  7. 3. File and Neural Net Limitations
  8.  
  9.  
  10.  
  11. 1. Files Needed or Produced by Software
  12.  a. MLP and functional link neural networks typically have three types 
  13.     of files associated with them. These three types are: 
  14.   (1) The network structure file. For the MLP, this file specifies the 
  15.       number of network layers, the number of artificial neurons 
  16.       (called units) in each layer, and the number of the first layer 
  17.       which the third and fourth (if there is one) layers connect to.
  18.       For the functional link net, this file contains the network degree P
  19.       (usually an integer between 1 and 5), the number of network inputs N
  20.       and the number of outputs, and the dimension of the multinomial vector, 
  21.       which is L = (N+P)!/(N!P!).
  22.   (2) The weight file, which gives the gains or coefficients along 
  23.       paths connecting the various units.
  24.   (3) The training or testing data file, which gives example inputs 
  25.       and outputs for network learning, or for testing after learning.
  26.  
  27.  b. The network structure files have the extension "top". You can create 
  28.     your own network structure files within the backpropagation, fast 
  29.     training and functional link programs, if you want. Consider the 
  30.     MLP structure file, Grng.top shown below. 
  31.  
  32.            4
  33.           16          20          10           4
  34.            1           1           1
  35.  
  36.     It has 4 layers. The first layer has 16 inputs, which means that 
  37.     each training or testing pattern has 16 numbers. It has 20 units in 
  38.     the first hidden layer, where "hidden" means that it is not an input 
  39.     or output layer. It has 10 units in the second hidden layer. 
  40.     The output layer has 4 units, corresponding to the 4 possible 
  41.     decisions that the network can make about the 16  input numbers.
  42.     The last line of "1s" means that layers 2, 3, and 4 connect up with 
  43.     layer 1, layers 1 and 2, and layers 1, 2, and 3 respectively. This 
  44.     network is "fully connected", meaning that each layer connects with 
  45.     all previous layers. Fully connected networks are more powerful than 
  46.     and train faster than non fully connected networks. The fully 
  47.     connected networks are almost always smaller than non fully connected 
  48.     networks which perform the same operation.
  49.  
  50. 2. Training and Testing Data 
  51.  a. IANS Format
  52.     All data files must be put into formatted, IANS form, which means
  53.     that each pattern or feature vector is followed by the correct 
  54.     class number (class id). The data analysis and pre-processing 
  55.     option (number 2) puts raw data into the IANS format.
  56.  
  57.     You can type out the data files to examine them, and you can use 
  58.     these files with other neural net software. For example, consider 
  59.     the training data file, Xor, shown below.
  60.  
  61.             0.  0.  1
  62.             0.  1.  2
  63.             1.  0.  2
  64.             1.  1.  1
  65.  
  66.     There are four training patterns with two inputs each. Patterns 1 and 4 
  67.     belong to class 1, as indicated by the class number, 1, at the end of 
  68.     the first and last rows. The middle two rows or training patterns 
  69.     belong to class 2. 
  70.  
  71.     The software can convert this file into either of two forms during 
  72.     training or testing. If the network is to have coded output, the number 
  73.     of output units is about log to the base 2 of the number of classes. For 
  74.     the file Xor for example, log2(2) = 1, so topology file Xor.top has 1 
  75.     output unit. If we were to use file Xor to train a network having uncoded 
  76.     outputs, then the number of outputs would equal the number of classes. 
  77.     Since Xor, Par, and Par4 are used in coded output networks in our demos, 
  78.     the corresponding networks have one output each. Since file Grng has 
  79.     four classes and is used in uncoded output networks, the networks for 
  80.     it have four outputs.
  81.  
  82.     Internal to the software, file XOR is converted to the form
  83.  
  84.             0.  0.  0
  85.             0.  1.  1
  86.             1.  0.  1
  87.             1.  1.  0
  88.  
  89.      if the coded format is specified, where the third row stores the
  90.      desired outputs for the corresponding patterns. If uncoded format
  91.      is used, the file would be converted to the form
  92.  
  93.              0.  0.  0  1
  94.              0.  1.  1  0 
  95.              1.  0.  1  0
  96.              1.  1.  0  1
  97.  
  98.      For pattern number 1 for example, the first output unit has the desired 
  99.      value of 0, corresponding to class 1.
  100.  
  101.  b. Data Files Included With This Package
  102.  
  103.     The XOR data file, which corresponds to exclusive or, has 4 patterns,
  104.        2 classes, and 2 inputs.
  105.     The PAR4 data file, which corresponds to 4-input parity check, has 16 
  106.        patterns, 2 classes, and 4 inputs.
  107.     The GRNG data file, which corresponds to recognition of 4 geometric
  108.        shapes, has 4 classes, 800 vectors or patterns, and 16 inputs.
  109.     The Gongtrn data file, which corresponds to recognition of handprinted 
  110.        numerals, has 10 classes, 3,000 vectors or patterns, and 16 inputs
  111.        or features calculated from 32 by 24 pixel binary images.
  112.  
  113.  
  114. 3. File and Neural Net Limitations
  115.  There is no limitation on data file size.
  116.  MLP neural nets are limited to 40 or fewer units in each layer,
  117.    including the input layer, one or two hidden layers, and the output
  118.    layer.
  119.  Functional link networks are limited to 40 inputs, 15 outputs, and
  120.    5th degree.
  121.  Conventional clustering and self-organizing map clustering are limited 
  122.    to 32 elements per vector and 2,048 clusters. There is no limit on 
  123.    the number of input patterns.
  124.